针对现有的知识图谱推荐模型没有考虑到用户的周期特征以及待推荐项目会对用户近期兴趣产生影响的问题,提出一种融合多时间尺度和特征加强的知识图谱推荐模型(MTFE)。首先,采用长短期记忆(LSTM)网络在不同时间尺度上挖掘用户的周期特征并融入到用户表示中;然后,通过注意力机制挖掘待推荐项目中与用户近期特征相关性较强的特征,将其加强后融入项目表示中;最后,通过评分函数计算用户对待推荐项目的评分。在真实数据集Last.FM、MovieLens-1M和MovieLens-20M上把所提模型和个性化实体推荐(PER)、协同知识嵌入(CKE)、LibFM、RippleNet、知识图卷积网络(KGCN)、协同知识感知注意网络(CKAN)等知识图谱推荐模型进行对比。实验结果表明,在三个数据集上MTFE相较于表现最优的对比模型的F1性能分别提升了0.78、1.63和1.92个百分点,AUC指标在三个数据集上分别提升了3.94、2.73和1.15个百分点。可见,所提模型相较于对比图谱推荐模型有更好的推荐效果。
知识图谱(KG)能够缓解协同过滤算法存在的数据稀疏和冷启动问题,在推荐领域被广泛地研究和应用。现有的很多基于KG的推荐模型混淆了用户物品二部图中的协同过滤信息和KG中实体间的关联信息,导致学习到的用户向量和物品向量无法准确表达其特征,甚至引入与用户、物品无关的信息从而干扰推荐。针对上述问题提出一种融合协同信息的知识图注意力网络(KGANCF)。首先,为了避免KG实体信息的干扰,网络的协同过滤层从用户物品二部图中挖掘出用户和物品的协同过滤信息;然后,在知识图注意力嵌入层中应用图注意力机制,从KG中继续提取与用户和物品密切相关的属性信息;最后,在预测层将用户物品的协同过滤信息和KG中的属性信息融合,得到用户和物品最终向量表示,进而预测用户对物品的评分。在MovieLens-20M和Last.FM数据集上进行了实验,与协同知识感知注意力网络(CKAN)相比,KGANCF在MovieLens-20M数据集上的F1分数提升了1.1个百分点,曲线下面积(AUC)提升了0.6个百分点;而在KG相对稀疏的Last.FM数据集上,模型的F1分数提升了3.3个百分点,AUC提升了8.5个百分点。实验结果表明,KGANCF能够有效提高推荐结果的准确度,在KG稀疏的数据集上显著优于协同知识嵌入(CKE)、知识图谱卷积网络(KGCN)、知识图注意网络(KGAT)和CKAN模型。
目前,知识图谱推荐的研究主要集中在模型建立和训练上。然而在实际应用中,需要使用增量更新方法定期更新模型来适应新用户和老用户偏好的改变。针对大部分该类模型仅利用用户的长期兴趣表示做推荐,而没有考虑用户的短期兴趣且聚合邻域实体得到项目向量表示时聚合方式的可解释性不足,以及更新模型的过程中存在灾难性遗忘的问题,提出基于知识图偏好注意力网络的长短期推荐(KGPATLS)模型及其更新方法。首先,通过KGPATLS模型提出偏好注意力网络的聚合方式以及结合用户长期兴趣和短期兴趣的用户表示方法;然后,为了缓解更新模型存在的灾难性遗忘问题,提出融合预测采样和知识蒸馏的增量更新方法(FPSKD)。将提出的KGPATLS模型和FPSKD方法在MovieLens-1M和Last.FM两个数据集上进行实验。相较于最优基线模型知识图谱卷积网络(KGCN),KGPATLS模型的曲线下面积(AUC)指标在两个数据集上分别有2.2%和1.4%的提升,准确率(Acc)指标分别有2.5%和2.9%的提升。在两个数据集上对比FPSKD与三个基线增量更新方法Fine Tune、Random Sampling、Full Batch,FPSKD在AUC和Acc指标上优于Fine Tune、Random Sampling,在训练时间指标上FPSKD分别降低到Full Batch的大约1/8和1/4。实验结果验证了KGPATLS模型的性能,而FPSKD在保持模型性能的同时可以高效地更新模型。
针对现有生成模型难以直接从复杂语义标签生成高分辨率图像的问题,提出了融合语义标签和噪声先验的生成对抗网络(SLNP-GAN)。首先,直接输入语义标签(包含形状、位置和类别等信息),使用全局生成器对其进行编码,并结合噪声先验来学习粗粒度的全局属性,初步合成低分辨率图像;然后,基于注意力机制,使用局部细化生成器来查询低分辨率图像子区域对应的高分辨率子标签,获取细粒度信息,从而生成纹理清晰的复杂图像;最后,采用改进的引入动量的Adam算法(AMM)算法来优化对抗训练。实验结果表明,与现有方法text2img相比,所提方法的像素精确度(PA)在COCO_Stuff和ADE20K数据集上分别提高了23.73%和11.09%;相较于Adam算法,AMM算法收敛速度提升了约一倍,且损失值波幅较小。可见,SLNP-GAN能高效地获取全局特征和局部纹理,生成细粒度、高质量的图像。
为生成有效表示图像场景语义的视觉词典,提高场景语义标注性能,提出一种基于形式概念分析(FCA)的图像场景语义标注模型。该方法首先将训练图像集与其初始的视觉词典抽象为形式背景,采用信息熵标识了各视觉单词的权重,并分别构造了各场景类别概念格结构;然后再利用各视觉单词权重的均值刻画概念格内涵上各组合视觉单词标注图像的贡献,按照类别视觉词典生成阈值,从格结构上有效提取了标注各类场景图像语义的视觉词典;最后,利用K最近邻标注测试图像的场景语义。在Fei-Fei Scene 13类自然场景图像数据集上进行实验,并与Fei-Fei方法和Bai方法相比,结果表明该方法在β=0.05和γ=15时,标注分类精度更优。